Get In Touch

Stresująca praca testera autonomicznych Tesla

Stresująca praca testera autonomicznych Tesla

Praca jako tester autonomicznych pojazdów Tesli wydaje się być jednym z najbardziej stresujących zawodów na świecie. Rola testera w tej firmie wiąże się z kuszącymi, lecz przerażającymi obowiązkami, które obejmują m.in. ignorowanie wszelkiego poczucia odpowiedzialności prawnej oraz moralnej.

Pojazdy autonomiczne to przyszłość, o której marzą firmy technologiczne. Choć technologia obiecuje zrewolucjonizować transport, aktualnie oprogramowanie znajduje się jeszcze daleko od idealnego poziomu automatyzacji. Niemniej jednak, inwestorzy dążą do przyspieszenia procesu, testując systemy na publicznych drogach, stawiając wszystkich uczestników ruchu w roli królików doświadczalnych.

Według raportu Business Insider, grupa testerów Tesli znana jako Project Rodeo została stworzona, aby pchać granice możliwości oprogramowania Full Self-Driving (FSD) oraz Autopilot. Jakie są te granice? Przede wszystkim bliskie kolizje. Im bardziej ekstremalna sytuacja, tym lepiej.

Były tester stwierdził: „Przez całą zmianę czujesz, że działasz na adrenaliny. Odczucie, że coś może pójść bardzo źle, towarzyszy ci nieustannie.” Wywiady z dziewięcioma obecnymi i byłymi kierowcami Project Rodeo ujawniają alarmujące, ale nie zaskakujące scenariusze. Choć wypadki związane z FSD są dobrze udokumentowane, żaden z rozmówców nie był ich świadkiem.

Project Rodeo składa się z mniejszych zespołów. Na przykład, zespół „złotej instrukcji” stosuje się do przepisów ruchu drogowym, nie korzystając z żadnych funkcji wspomagających kierowcę. Z kolei zespół „interwencji krytycznej” pozwala oprogramowaniu przejąć kontrolę nad prowadzeniem samochodu, interweniując tylko w celu uniknięcia kolizji.

Oczekiwanie na ostatnią chwilę, aby przejąć kontrolę nad pojazdem, ma na celu umożliwienie oprogramowaniu zareagowania na sytuację. Im więcej danych zbieranych jest w rzeczywistych warunkach, tym łatwiej inżynierom dostosować i aktualizować system.

„Chcemy wiedzieć, co skłoniło samochód do podjęcia takiej decyzji,” mówi były inżynier Autopilota. Zbyt wczesna interwencja może uniemożliwić zrozumienie kluczowych momentów.

Konsekwencją tego podejścia są sytuacje, w których pojazdy ignorują czerwone światła, przejeżdżają przez podwójne linię, nie zatrzymują się na znakach i przekraczają dozwolone prędkości – wszystko na drogach publicznych. Nawet w niewygodnych sytuacjach dla kierowcy, nadzorcy twierdzą, że zbyt szybko przejęli kontrolę.

John Bernal, były tester i analityk danych, zaznacza, że nigdy nie nakazywano mu bezpośredniego łamania prawa, ale sugestie były wyraźne. „Moje szkolenie polegało na czekaniu aż koła dotkną białej linii, zanim mogłem wcisnąć hamulec,” dodaje.

Co więcej, niektóre jazdy wykorzystywano jedynie do szkolenia oprogramowania, aby lepiej reagowało na „wrażliwych uczestników ruchu,” takich jak piesi czy rowerzyści. Były tester wspomina, że podczas jazdy z trenerem ich pojazd ominął rowerzystę o włos, a on musiał nagle hamować.

„Wyraźnie pamiętam tego gościa skaczącego z roweru,” mówi. „Był przerażony. Samochód ruszył w jego kierunku, a ja mogłem tylko wcisnąć hamulec.” Co ciekawe, jego trener był zadowolony z tej sytuacji, stwierdzając, że jego reakcja była „idealna.”

Inne firmy, takie jak Cruise i Waymo, również pracują nad samochodami autonomicznymi, jednak zapewniają, że przeprowadzają dokładne testy w kontrolowanych warunkach, co różni się od podejścia Tesli. Zastanawia więc, czemu te same problemy, z którymi boryka się Tesla, dotyczą również tych firm.

„Gdyby jedna osoba trzymała rower przez cały czas, system nigdy nie nauczyłby się niczego,” mówi były inżynier Tesli. W obliczu presji ze strony akcjonariuszy, dane stały się kluczowe, co sprawia, że cały ten proces staje się środowiskiem o wysokim ryzyku, na które społeczeństwo nie wyraziło zgody.